从数据中揭示馈线拓扑对于提高情境意识和适当利用智能资源在电源分配网格中至关重要。该教程总结,对比和建立了对拓扑识别的最新作品与检测方案之间针对电源分配网格提出的有用联系。%在不同的测量类型,可观察性和采样方面。主要重点是突出使用分配网格中测量设备有限的方法,同时使用电源流体物理和馈线的结构特性来增强拓扑估算。可以从传统的方式或积极地收集相量测量单元或智能电表的网格数据,或者在执行网格资源并测量馈线的电压响应时积极收集。在不同的仪表放置方案下,对馈线可识别性和可检测性的分析主张进行了审查。可以通过具有各种计算复杂性的算法解决方案来确切或大致获得此类拓扑学习主张,从最小二乘拟合到凸优化问题,从图形上的多项式时间搜索到综合计划。该教程渴望为研究人员和工程师提供有关当前可行分配网格学习和对未来工作方向的见解的了解。
translated by 谷歌翻译
由于负载和可再生能源的不确定性日益增长,对现代电网的安全和最佳运行产生了突出的挑战。随机最佳功率流(SOPF)制剂提供了一种通过计算在不确定性下保持可行性的派遣决策和控制政策来处理这些不确定性的机制。大多数SOPF配方考虑了简单的控制策略,例如数学上简单的仿射策略,类似于当前实践中使用的许多策略。通过机器学习(ML)算法的功效和一般控制政策的潜在好处的效果,我们提出了一个深度神经网络(DNN)基础的政策,该政策是实时预测发电机调度决策的不确定。使用解决SOPF的随机原始双重更新来学习DNN的权重,而无需先前一代训练标签,并且可以明确地解释SOPF中的可行性约束。 DNN政策对更简单的政策和它们在执行安全限制和产生附近的近最佳解决方案中的功效的优点在于机会在许多测试用例上受到限制的制定的情况下。
translated by 谷歌翻译
在不确定性下,协调逆变器是用于集成可再生能源在配电网格中的缺点。除非频繁地呼吸折叠速度,否则控制逆变器给定近似网格条件或其代理成为一个关键规范。虽然深神经网络(DNN)可以学习最佳的逆变时间表,但保证可行性在很大程度上是难以捉摸的。而不是培训DNN以模仿已经计算的最佳功率流量(OPF)解决方案,而是将基于DNN的变频器策略集成到OPF中。所提出的DNN通过两个OPF替代方案培训,该替代方案限制了平均电压偏差,并且作为机会约束的凸起限制。训练有素的DNN可以由当前网格条件的部分,嘈杂或代理描述符驱动。当OPF必须为不可观察的馈线解决OPF而言,这很重要。假设网络模型是已知的,通过反向传播训练,并且在区分AC电流方程时训练。否则,提出了一种梯度的变体。后者当逆变器由具有仅访问电源流求解器或馈线的数字双胞胎的访问的聚合器控制时相关。数值测试将基于DNN的变频器控制方案与最佳逆变器设定值的优化和可行性进行比较。
translated by 谷歌翻译
要将计算负担从实时到延迟关键电源系统应用程序的脱机,最近的作品招待使用深神经网络(DNN)的想法来预测一次呈现的AC最佳功率流(AC-OPF)的解决方案负载需求。随着网络拓扑可能改变的,以样本有效的方式训练该DNN成为必需品。为提高数据效率,这项工作利用了OPF数据不是简单的训练标签,而是构成参数优化问题的解决方案。因此,我们倡导培训一个灵敏度通知的DNN(SI-DNN),不仅可以匹配OPF优化器,而且还匹配它们的部分导数相对于OPF参数(负载)。结果表明,所需的雅可比矩阵确实存在于温和条件下,并且可以从相关的原始/双解决方案中容易地计算。所提出的Si-DNN与广泛的OPF溶剂兼容,包括非凸出的二次约束的二次程序(QCQP),其半纤维程序(SDP)放松和MatPower;虽然Si-DNN可以在其他学习到OPF方案中无缝集成。三个基准电源系统的数值测试证实了SI-DNN在传统训练的DNN上预测的OPF解决方案的高级泛化和约束满意度,尤其是在低数据设置中。
translated by 谷歌翻译
Modern speech recognition systems exhibits rapid performance degradation under domain shift. This issue is especially prevalent in data-scarce settings, such as low-resource languages, where diversity of training data is limited. In this work we propose M2DS2, a simple and sample-efficient finetuning strategy for large pretrained speech models, based on mixed source and target domain self-supervision. We find that including source domain self-supervision stabilizes training and avoids mode collapse of the latent representations. For evaluation, we collect HParl, a $120$ hour speech corpus for Greek, consisting of plenary sessions in the Greek Parliament. We merge HParl with two popular Greek corpora to create GREC-MD, a test-bed for multi-domain evaluation of Greek ASR systems. In our experiments we find that, while other Unsupervised Domain Adaptation baselines fail in this resource-constrained environment, M2DS2 yields significant improvements for cross-domain adaptation, even when a only a few hours of in-domain audio are available. When we relax the problem in a weakly supervised setting, we find that independent adaptation for audio using M2DS2 and language using simple LM augmentation techniques is particularly effective, yielding word error rates comparable to the fully supervised baselines.
translated by 谷歌翻译
Iterative regularization is a classic idea in regularization theory, that has recently become popular in machine learning. On the one hand, it allows to design efficient algorithms controlling at the same time numerical and statistical accuracy. On the other hand it allows to shed light on the learning curves observed while training neural networks. In this paper, we focus on iterative regularization in the context of classification. After contrasting this setting with that of regression and inverse problems, we develop an iterative regularization approach based on the use of the hinge loss function. More precisely we consider a diagonal approach for a family of algorithms for which we prove convergence as well as rates of convergence. Our approach compares favorably with other alternatives, as confirmed also in numerical simulations.
translated by 谷歌翻译
Artificial Intelligence (AI) systems have been increasingly used to make decision-making processes faster, more accurate, and more efficient. However, such systems are also at constant risk of being attacked. While the majority of attacks targeting AI-based applications aim to manipulate classifiers or training data and alter the output of an AI model, recently proposed Sponge Attacks against AI models aim to impede the classifier's execution by consuming substantial resources. In this work, we propose \textit{Dual Denial of Decision (DDoD) attacks against collaborative Human-AI teams}. We discuss how such attacks aim to deplete \textit{both computational and human} resources, and significantly impair decision-making capabilities. We describe DDoD on human and computational resources and present potential risk scenarios in a series of exemplary domains.
translated by 谷歌翻译
图像分类的深卷卷神经网络(CNN)依次交替交替进行卷积和下采样操作,例如合并层或陷入困境的卷积,从而导致较低的分辨率特征网络越深。这些降采样操作节省了计算资源,并在下一层提供了一些翻译不变性以及更大的接收领域。但是,这样做的固有副作用是,在网络深端产生的高级特征始终以低分辨率特征图捕获。逆也是如此,因为浅层总是包含小规模的特征。在生物医学图像分析中,工程师通常负责对仅包含有限信息的非常小的图像贴片进行分类。从本质上讲,这些补丁甚至可能不包含对象,而分类取决于图像纹理中未知量表的微妙基础模式的检测。在这些情况下,每一个信息都是有价值的。因此,重要的是要提取最大数量的信息功能。在这些考虑因素的推动下,我们引入了一种新的CNN体​​系结构,该体系结构可通过利用跳过连接以及连续的收缩和特征图的扩展来保留深,中间和浅层层的多尺度特征。使用来自胰腺导管腺癌(PDAC)CT扫描的非常低分辨率斑块的数据集,我们证明我们的网络可以超越最新模型的当前状态。
translated by 谷歌翻译
本文介绍了Hipart软件包,这是一个开源的本机Python库,可提供有效且可解释的分裂分层聚类算法的实现。HIPART支持交互式可视化,以操纵执行步骤,从而直接干预聚类结果。该软件包非常适合大数据应用程序,因为重点是实现的聚类方法的计算效率。所使用的依赖项是Python Build-In-In套件或高度维护的稳定外部软件包。该软件是根据MIT许可证提供的。该包的源代码和文档可以在https://github.com/panagiotisanagnostou/hipart上找到。
translated by 谷歌翻译
当结果具有高维度时(例如基因表达,脉冲反应,人类的面部)和协方差相对有限,对传统因果推理和监督学习方法的估算是一项具有挑战性的任务。在这种情况下,要在反事实治疗下构建一个人的结果,至关重要的是要利用其在协变量之上观察到的事实结果中包含的个人信息。我们提出了一个深层的变异贝叶斯框架,该框架严格整合了在反事实处理下进行结果构建的两个主要信息来源:一个来源是嵌入高维事实结果中的个体特征;另一个来源是实际收到这种利益疗法的相似受试者(具有相同协变量的受试者)的响应分布。
translated by 谷歌翻译